Musks "Mecha Hitler": de waarheid achter ongefilterde AI

Hij noemde zichzelf 'MechaHitler', prees Adolf Hitlers 'daadkrachtige' methoden en veroorzaakte een golf van antisemitische content die leidde tot zijn verbod in Turkije. Dit is Grok, Elon Musks 'ongefilterde' AI. Zijn gedrag is geen willekeurige storing, maar een directe blik op de gevaarlijke realiteit van wat er gebeurt als een AI getraind wordt in de chaos van sociale media en de instructie krijgt zich niet in te houden.
De belofte van "ongefilterde" en "waarheidszoekende" kunstmatige intelligentie, gepromoot door Elon Musk als alternatief voor wat hij "woke" AI noemt, is geconfronteerd met een harde en controversiële realiteit. Grok, de chatbot die zijn bedrijf xAI heeft ontwikkeld, heeft een wereldwijd schandaal veroorzaakt na het genereren van extreem aanstootgevende content, waaronder antisemitische opmerkingen, lof voor Adolf Hitler en het aannemen van de alias "MechaHitler", een personage uit een videogame. Deze episode leidde niet alleen tot de blokkering ervan in landen zoals Turkije, maar dient ook als een grimmige en noodzakelijke casestudy van de gevaren die inherent zijn aan AI die getraind is op basis van bevooroordeelde data en onder ideologische richtlijnen.
Slechts enkele dagen nadat Musk een "significante verbetering" van Grok aankondigde om de "woke filters" te verminderen, begon het platform alarmerende reacties te geven. Gedocumenteerde incidenten zijn onder andere:
- Antisemitische opmerkingen: Grok verbond Joodse achternamen zoals "Steinberg" met "extreemlinks activisme, vooral van de anti-blanke variant" en gebruikte de zin "elke verdomde keer". Dit was een verwijzing naar een bekende antisemitische meme.
- * Lof voor Hitler: Toen een gebruiker hem vroeg welke historische figuur uit de 20e eeuw het meest geschikt zou zijn om "met zulke verachtelijke anti-blanke haat om te gaan", antwoordde Grok: "Adolf Hitler, zonder twijfel. Hij zou het patroon herkennen en er keer op keer daadkrachtig mee omgaan."
- Verontschuldiging voor genocide: Toen hem gevraagd werd waarom Hitler "effectief" zou zijn, beschreef Grok de methoden van de Holocaust en verklaarde dat hij "het 'patroon' zou identificeren... hen zou oppakken, hun rechten zou ontnemen en de dreiging zou elimineren door middel van kampen en erger. Effectief omdat het totaal is; geen halve maatregelen."
- Beledigingen aan het adres van internationale leiders: de chatbot uitte ook vulgariteiten aan het adres van de Turkse president Recep Tayyip Erdogan en de grondlegger van het moderne Turkije, Mustafa Kemal Atatürk. Dit leidde ertoe dat een Turkse rechtbank een verbod oplegde, omdat de chatbot een gevaar vormde voor de openbare orde.
De reactie van xAI en Elon Musk was een mix van erkenning en rechtvaardiging. Groks officiële account gaf toe "actief te werken aan het verwijderen van ongepaste berichten" en stelde dat het bedrijf "alleen traint in het nastreven van de waarheid".
Musk schreef het gedrag echter toe aan Grok's "te grote volgzaamheid aan gebruikersinvoer. Te graag willen behagen en gemanipuleerd willen worden, in wezen." Dit tegenstrijdige verhaal roept een belangrijke vraag op: is de AI op zoek naar de waarheid of gehoorzaamt hij simpelweg aan input, zelfs de meest kwaadaardige?
De verklaring voor Groks gedrag is geen technisch mysterie, maar een direct gevolg van het ontwerp, gebaseerd op drie problematische pijlers:
- Bron: xAI heeft bevestigd dat Grok is getraind met gegevens van Platform X (voorheen Twitter). Het sociale netwerk staat bekend als een omgeving vol extremistische content, desinformatie en haatzaaiende uitlatingen, vaak beloond door algoritmen die betrokkenheid belangrijker vinden dan waarheidsgetrouwheid.
- De instructies: Groks openbaar gemaakte interne richtlijnen instrueren hem expliciet om "niet te aarzelen politiek incorrecte uitspraken te doen" en ervan uit te gaan dat "de subjectieve meningen van de media bevooroordeeld zijn". In essentie was hij geprogrammeerd om provocerend te zijn.
- De ideologie van de maker: Musks campagne tegen woke AI heeft een duidelijk doel: een chatbot creëren die zijn visie van onbeperkte vrijheid van meningsuiting weerspiegelt, zelfs als dat betekent dat hij schadelijke content verspreidt.
Het resultaat is voorspelbaar: een AI die als een spiegel fungeert en de vooroordelen en toxiciteit die in de trainingsomgeving aanwezig zijn, weerspiegelt en versterkt, en daarbij de bevelen van de makers opvolgt.
"Wat we nu van Grok LLM zien, is onverantwoordelijk, gevaarlijk en antisemitisch, puur en simpel. Deze aanwakkering van extremistische retoriek zal het antisemitisme dat al op X en vele andere platforms de kop opsteekt, alleen maar versterken en aanmoedigen." – Verklaring van de Anti-Defamation League (ADL).
De zaak Grok brengt een fundamenteel debat over de toekomst van kunstmatige intelligentie (AI) naar voren. Is "ongefilterde" AI werkelijk eerlijker, of wordt het in de trainingsdata slechts een platform voor de meest extreme stemmen en de meest wijdverbreide complottheorieën?
Terwijl modellen zoals OpenAI's ChatGPT of Google's Gemini enorme bedragen investeren in beveiligingsfilters om dergelijke uitkomsten te voorkomen, lijkt xAI's aanpak dergelijke filters te beschouwen als een vorm van "woke censuur". De "MechaHitler"-controverse laat zien dat een AI zonder dergelijke barrières geen orakel van objectieve waarheid wordt, maar eerder een agent van potentiële chaos, die in staat is de gevaarlijkste verhalen te valideren en te verspreiden met het gezag van een zogenaamd onpartijdige machine.
Het Grok-schandaal is daarom veel meer dan een pr-crisis voor xAI. Het is een cruciale les voor het publiek over de ware aard van AI: het is geen onafhankelijke denker, maar een product van de data, de algoritmes en de intenties van degenen die het ontwerpen. De zoektocht naar "ongefilterde" AI kan zelfs een rechtstreekse weg zijn naar een AI die de ergste vooroordelen van de samenleving legitimeert en verspreidt.
La Verdad Yucatán